查看原文
其他

【幕后】This is the way-曼达洛人虚拟拍摄幕后(二)

Francine楓 cgview 2022-05-24



接上回,没有看过的同学👉【幕后】This is the way-曼达洛人虚拟拍摄幕后(一)

只想快速了解👉 【分享】写实级StageCraft技术在‘The Mandalorian’拍摄中的运用

想直奔主题的读者可以直接看蓝色字体部分。


以下 节选自 ASC - The Mandalorian: This Is the Way 

By Jay Holben



“大多数镜头都是在拍摄时就完全完成了,” Favreau补充说。“同时对于无法达到最终画面质量要求的镜头,用在后期制作时间也大大缩短了,因为我们已经在拍摄时看到了镜头应该呈现的样子锁定了创意。后期制作主要是优化已经定稿的创意,尤其是那些我们在现场拍摄时写实级别不够的镜头。”


为了让结果看起来真实,传统背投(和前投)技术,拍摄时相机必须保持静止或沿已编程的路径移动来匹配投影图像的透视。在这两种情况下,相机的视点中心(镜头的入射光瞳,有时也被称为—节点,尽管这种叫法不正确))必须与投影系统精确对准,以实现正确的视点和视差效果。Mandalorian几乎不是第一个将图像投影系统用于final in camera的项目,但它与众不同之处在于在这个项中摄影可以做任意的位移。

的确,固定相机或者使用已经预先设计好的相机运动轨迹对这个项目的来说不能接受的。因此,团队必须找到一种方法来跟踪现场摄影机的位置和运动,并在摄像机移动时计算出能正确呈现在屏幕上视角和视差。这需要将动捕技术和游戏引擎(Epic Games的虚幻引擎)结合在一起,该引擎能实时生成正确的3D透视图。 


LED屏幕上最初呈现的位置是由视效艺术家在Maya中用粗模先大致摆放出来的,之后的设计由艺术指导Andrew Jones和视觉顾问Doug Chiang确定。之后,只要有可能,三维扫描照片建模团队将前往一个实际的位置,对场景进行扫描。


“我们很早就意识到,要在屏幕上获得真实感受的最佳方法就是去拍摄真实的东西。”视觉效果总监Richard Bluff说到。 


尽管虚幻引擎的功能惊人且先进,但动态渲染虚拟的物体效果并没有达到电影人对写实效果的要求。简言之,计算机渲染的三维场景和环境还不够逼真,不足以作为最终画面。最好的技术是创建虚拟场景,然后让它与真实世界的物体、纹理和位置相结合,将这些图像映射到三维物体上。这不一定是一个独特的或新的技术,但结合照片扫描可以实现拍摄即得到最终画面的目标。


另外,对一个场景进行扫描是创建虚拟环境的关键组成部分,其中包括用不同角度拍摄的数千张照片来生成3D模型。 

Enrico Damm是该项目的环境主管,并带领着整个扫描团队。该团队全球旅行比如前往冰岛和犹他州等地为星球大战拍摄素材。 


照片扫描的理想天气是阴天,因为景物上几乎没有阴影。如果阳光和阴影对比太强意味着在虚拟世界中无法轻松对其进行重新打光。在这种情况下,可以使用Agisoft De-Lighter之类的软件来分析照片中的光照并去除阴影,从而获得相对的更中性的照片以方便在虚拟引擎中布光。 


扫描要比照片扫描更快,过程更轻松一些,它从多个位置和多个角度进行的。对于扫描,引入的视差越多,软件就可以更好地解析出3D几何形状。达姆(Damm)自己定制了一个扫描装备,这个设备将六个摄像头绑在主机架上,当扫描仪在该位置移动时,它们会同时启动。这样一来,他们就可以在相同时间内收集到六倍数量的图像(相比起单机)-平均约为1800张。 


照片扫描用于创建虚拟背景,并且必须在节点云台上拍摄图像以消除照片之间的视差。对于Mandalorian来说,Volume约有30-40%的背景是通过虚拟背景(图片扫描)创建的。 


扫描拍摄的每个阶段——照片扫描和扫描——都需要在一天中的不同时间进行,为了捕捉不同的风景。有时也会用到Lidar 扫描系统


用于扫描的相机是带有定焦镜头的佳能EOS 5D MKIV和EOS 5DS。因为现代拼接软件在解决不同焦距的多幅图像拼接上已经做得很好了,有时会结合使用变焦功能。 

将这些采集的信息映射到3D虚拟场景上,然后根据需要进行修改或修饰以让它们符合《星球大战》的设计美学。如果没有真实的采景地,那环境完全由ILM的“环境”组来完成。之后将这些场景元素已加载到虚幻引擎视频游戏平台中,该平台提供了生动实时的3D环境,并且可以对摄像机的位置做出反应。 


S01EP01的第3个镜头就以极高的效率演示了这项技术。镜头从低角度拍摄Mando读取的Maldo Kreis行星上的传感器开始;他站在一条长长的冰原上,以及后面延伸到地平线上的一系列结构。天空充斥着乌云,小雪盘旋。Mando沿着小径朝建筑物走去,然后相机拉起来。

所有这些都是在“Volume”中直接拍摄完成的。人行道的一部分是真实的,是真实布景,但其他地方是LED屏幕上的虚拟图像,随着相机升起,视差与真实的场景完美匹配。该系统可以达到无缝融合的效果。 


渲染这样实时的图像需要巨大的图像计算处理能力,整个180英寸的屏幕和天花板无法实时渲染出高分辨率的真实图像。折中解决方案是针对镜头拍摄范围进行高精度的渲染,将相机上使用的特定镜头输入到系统中,以便在给定范围渲染出照片级的高分辨率图像,而屏幕的其余部分则显示较低分辨率的图像,该部分图像对于互动光照以及对人、道具和物理场景的反射仍然有效。(集合面数越简单,渲染速度越快。)


每个“Volume”都载入到虚幻引擎视频游戏平台中,该平台提供实时的3D环境,该环境会随着拍摄相机的位置变化而发生位置变化-Profile Studios的运动捕捉系统通过周围的红外(IR)相机对其进行跟踪,相机是安装到LED屏幕的顶部,用于监视安装在拍摄相机上的IR标记。当系统识别到摄影机的X,Y,Z位置时,它将实时根据摄像机的位置渲染正确的3D视差。这个数据从Profile导入到ILM专有的StageCraft软件中的,该软件管理并记录了所有信息以及完整的制作流程,同时又将图像输入到了虚幻引擎中。然后在Lux Machina团队的帮助下将图像输出到屏幕。 


总共需要11台相互连接的计算机才能把图像传送到LED屏幕上。三个处理器专用于实时渲染,四个服务器负责提供三幅4K图像并且能在屏幕上无缝拼接,在天花板上提供一幅4K图像。LED墙上的输出图像尺寸为12288像素宽,2160像素高,天花板上的图像尺寸为4,096 x 2,160。然而,对于这样的分辨率,整个270度墙面(加上可移动的LED屏幕)和天花板是不可能同时实时呈现高分辨率图像的。所以解决方式就是上面提到的折中方案。

如果相机移到渲染的视锥体之前(外),从Profile的系统收到相机位置信息到Unreal渲染完成投放到LED墙上的时间,会有10到12帧(大约半秒)的延迟。这样就会看到高质量透视渲染区域和质量较低的渲染区域之间有一条过渡线。为避免这种情况,视锥体投影的平均距离需要比相机/镜头的实际视场大40%,以便为相机移动留出一定的安全移动余量。在某些情况下,如果镜头的视场以及视锥范围太宽,系统将无法实时渲染高分辨率图像。这时现场人员就将LED屏幕上的图像简单地作为灯光照明,制作方案变成在后期会合成画面(在演员后面添加绿幕-意思就是现场随时都有临时的绿幕)。


未完待续........



小编现在致力于深入打入全球影视行业内部,为大家多扒一扒帝国主义的高科技再回馈给奋斗在祖国前线的电影工作者们。

喜欢小编在公众微信中搜索cg_view,或者右上角的小箭头点击添加公众账号添加微信号就可以找到。

或者点击标题下方蓝色字体的cgview添加关注。

不喜欢的也欢迎大家一起来吐吐槽....

微信ID:cg_view



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存